Как да разберете кога AI е достатъчно мощен, за да бъде опасен? Регулаторите се опитват да си направят сметката
Как да разберете дали една система с изкуствен интелект е толкоз мощна, че съставлява заплаха за сигурността и не би трябвало да бъде отприщвана без деликатен контрол?
За регулаторите, които се пробват да слагат парапети на AI, това е най-много за аритметиката. По-конкретно, AI модел, подготвен на интервенции с плаваща запетая от 10 до 26, в този момент би трябвало да бъде докладван на държавното управление на Съединени американски щати и скоро може да провокира още по-строги условия в Калифорния.
Какво да кажа? Е, в случай че броите нулите, това са 100 000 000 000 000 000 000 000 000 или 100 септилиона калкулации за образование на AI системи на големи масиви от данни.
Това, което алармира на някои законодатели и бранители на AI сигурността, е равнище на пресмятане мощ, която може да разреши бързо рационализиране на AI технологията за основаване или разпространяване на оръжия за всеобщо заличаване или осъществяване на пагубни хакерски атаки.
Тези, които са изработили такива регулации, признават, че те са несъвършена насочна точка за разграничение на днешните най-ефективни генеративни AI системи - значително направени от основани в Калифорния компании като Anthropic, Гугъл, Meta Platforms и основателя на ChatGPT OpenAI – от идващото потомство, което може да бъде още по-мощен.
Критиците се нахвърлиха върху праговете като случайни - опит на държавните управления да контролират математиката. Добавящо към объркването е, че някои правила дефинират основан на скоростта изчислителен предел – какъв брой интервенции с плаваща запетая в секунда, известни като провали – до момента в който други се основават на кумулативен брой калкулации, без значение какъв брой време лишават.
„ От 10 до 26-ия неуспех “, сподели рисковият капиталист Бен Хоровиц в подкаст това лято. „ Ами в случай че това е размерът на модела, от който се нуждаете, да вземем за пример, с цел да излекувате рак? “
Изпълнителна заповед, подписана от президента Джо Байдън предходната година, разчита на предел от 10 до 26. Същото важи и за новоприетото законодателство за сигурност на изкуствения разсъдък в Калифорния – което губернаторът Гавин Нюсъм има до 30 септември да подпише закон или да наложи несъгласие. Калифорния прибавя втори индикатор към уравнението: контролираните AI модели също би трябвало да костват най-малко 100 милиона $ за създаване.
Следвайки стъпките на Байдън, широкообхватният Закон за изкуствения разсъдък на Европейския съюз също мери интервенции с плаваща запетая, само че слага летвата 10 пъти по-ниска при 10 на 25-та степен. Това обгръща някои AI системи, които към този момент работят. Правителството на Китай също прегледа измерването на изчислителната мощ, с цел да дефинира кои AI системи се нуждаят от защитни ограничения.
Нито един обществено наличен модел не дава отговор на по-високия предел на Калифорния, макар че е евентуално някои компании към този момент да са почнали да ги основават. Ако е по този начин, те би трябвало да споделят избрани детайлности и защитни ограничения с държавното управление на Съединени американски щати. Байдън употребява закон от епохата на Корейската война, с цел да принуди софтуерните компании да предизвестяват Министерството на търговията на Съединени американски щати, в случай че построяват такива AI модели.
Изследователите на AI към момента разискват по какъв начин най-добре да оценят опциите на най-новия генеративен AI технология и по какъв начин тя се съпоставя с човешкия разсъдък. Има проби, които правят оценка AI по отношение на решаването на пъзели, логическите разсъждения или какъв брой бързо и тъкмо предсказва какъв текст ще отговори на запитването на чатбот на човек. Тези измервания оказват помощ да се оцени полезността на AI инструмента за дадена задача, само че няма елементарен метод да се разбере кой от тях е с толкоз необятни благоприятни условия, че да съставлява заплаха за човечеството.
„ Това пресмятане, това число на флопа, по общ консенсус, е нещо като най-хубавото нещо, което имаме в тази тенденция “, сподели физикът Антъни Агире, изпълнителен шеф на Future of Life Institute, който се застъпи за приемането на Сената на Калифорния Законопроект 1047 и други правила за сигурност на ИИ по света.
Аритметиката с плаваща запетая може да звучи фантастично, „ само че в действителност това са просто цифри, които се прибавят или умножават дружно “, което я прави един от най-простите способи за оценка на способността и риска на AI модел, сподели Агире.
>
„ Повечето от това, което вършат тези неща, е просто да умножават огромни таблици с цифри дружно “, сподели той. „ Можете просто да помислите да напишете няколко цифри в калкулатора си и да ги добавите или умножите. И това е, което прави – 10 трилиона пъти или 100 трилиона пъти. “
За някои софтуерни водачи обаче това е прекомерно елементарна и твърдо кодирана метрика. Няма „ ясна научна поддръжка “ за потреблението на такива индикатори като сурогат на риска, твърди компютърният академик Сара Хукър, която управлява изследователския отдел с нестопанска цел на AI компанията Cohere, в публикация от юли.
„ Изчислителните прагове, както се ползват сега, са късогледи и евентуално няма да съумеят да понижат риска “, написа тя.
Рисковият капиталист Хоровиц и неговият бизнес сътрудник Марк Андреесен, създатели на авторитетната капиталова компания от Силиконовата котловина Andreessen Horowitz, нападнаха администрацията на Байдън, както и законодателите в Калифорния за регулациите на ИИ, съгласно които те биха могли да потушат възникващ ИИ започваща промишленост.
За Хоровиц слагането на ограничавания върху „ какъв брой математика ви е разрешено да вършиме “ отразява неправилно разбиране, че ще има единствено шепа огромни компании, които ще основават най-способните модели и можете да поставите „ горящи обръчи пред тях и те ще скочат през тях и всичко е наред. “
В отговор на рецензиите спонсорът на законодателството на Калифорния изпрати писмо до Andreessen Horowitz това лято, защитавайки законопроекта, в това число неговите регулаторни прагове.
Регулирането при над 10 до 26 е „ явен метод да изключим от условията за изпитване за сигурност доста модели, за които знаем, въз основа на актуалните доказателства, че нямат способността да предизвикват сериозни вреди “, написа щатският сенатор Скот Винер от San Франциско. Съществуващите обществено пуснати модели „ са тествани за извънредно рискови качества и няма да бъдат обхванати от законопроекта “, сподели Винер.
И Винер, и изпълнителната заповед на Байдън третират индикатора като краткотраен, който може да бъде поправен по-късно.
Ясин Джернайт, който работи по политически проучвания в компанията за изкуствен интелект Hugging Face, сподели, че изчислителната метрика се е появила „ добросъвестно “ преди миналогодишната заповед на Байдън, само че към този момент стартира да остарява. Разработчиците на AI вършат повече с по-малки модели, изискващи по-малко изчислителна мощ, до момента в който евентуалните вреди от по-широко употребяваните AI артикули няма да провокират препоръчаната инспекция от Калифорния.
„ Някои модели ще имат фрапантно по-голямо влияние върху обществото и те би трябвало да се поддържат с по-висок стандарт, до момента в който някои други са по-проучвателни и може да няма смисъл да има същия тип развой с цел да ги сертифицираме “, сподели Джернайт.
Агире сподели, че има смисъл регулаторите да бъдат пъргави, само че той характеризира известно опълчване на прага като опит да се избегне каквото и да е контролиране на AI системите защото стават по-способни.
„ Всичко това се случва доста бързо “, сподели Агире. „ Мисля, че има основателна рецензия, че тези прагове не улавят тъкмо това, което желаеме да уловят. Но мисля, че е неприятен мотив да преминем от това към „ Е, просто не би трябвало да вършим нищо и просто да стискаме палци и да се надяваме на най-хубавото. “